CIBERNÉTICA

“La cibernética es la teoría del mando, el control y la comunicación en el animal y en la máquina” (Norbert Wiener)

“Las ideas básicas de la cibernética pueden tratarse sin ninguna referencia a la electrónica y son fundamentalmente simples” (William Ross Ashby)

“La diversidad de la naturaleza puede ser explicada en el marco cibernético” (Heikki Hyötyniemi)



La Teoría Cibernética

El origen de una nueva ciencia

La palabra “cibernética” proviene de la palabra griega “kybernetes”, que significa “arte de gobernar o conducir un navío” como piloto o timonel. Del término griego procede la voz latina “gubernator”, con un significado similar. Platón utilizó este término en La República con el significado de “arte de gobernar”, y también como “arte de conducir a los hombres” y, en general, “arte de guiar”.

La palabra “cybernétique” también fue utilizada en 1834 por el físico André-Marie Ampère para referirse a las ciencias de gobierno (o arte de gobernar en política) en su famoso “Ensayo sobre la filosofía de las ciencias”, donde establecía un sistema de clasificación de los conocimientos humanos. “La futura ciencia de gobierno debería llamarse ‘la cybernétique’”.

En 1938, el matemático Louis Couffignal publicó un artículo pionero en la revista Europe donde especulaba sobre las posibilidades de las máquinas, capaces de tomar sus propias decisiones e incluso de reemplazar al hombre. También establecía analogías entre el sistema nervioso humano y la estructura interna de las máquinas.

La cibernética como ciencia arranca en 1948 con la publicación de la obra del matemático Norbert Wiener “Cibernética: o Control y Comunicaciones en el Animal y la Máquina”. Esta obra se convirtió en un best seller e inició uno de los movimientos científicos más espectaculares e influyentes. Wiener es considerado el padre de la cibernética.

La cibernética de Wiener es una abstracción inspirada en los problemas prácticos planteados durante la II Guerra Mundial, en concreto la necesidad de desarrollar mecanismos de control automático para los equipos militares de defensa antiaérea. Wiener construyó una teoría general de los sistemas de organización y control, con el concepto de retroalimentación (asociado a la consecución de un objetivo) como su fundamento más importante, concepto de tipo general también presente en la naturaleza, en los seres vivientes y en los sistemas sociales.


Las definiciones

Existen muchas definiciones de la cibernética: De todas estas definiciones, extraemos 3 conceptos fundamentales, que corresponden a características universales de muchos sistemas, incluidos los naturales:
  1. La retroalimentación (feedback), también denominada “retroacción” y “realimentación”, basada en la interacción de un sistema con el entorno.

  2. La teleología: la orientación de un sistema a la consecución de un cierto objetivo.

  3. La autorregulación: la capacidad de un sistema de controlarse a sí mismo, de forma autónoma para conseguir su objetivo.

La retroalimentación

Cuado el entorno de un sistema cambia, el sistema cambia para adaptarse a las nuevas condiciones de dicho entorno, siempre orientado a la consecución de un objetivo.

En la retroalimentación, la salida (o parte de ella) producida por un sistema se convierte en entrada. Se produce lo que se denomina un “lazo de retorno”. Según Norbert Wiener, “Retroalimentación es un método de control de un sistema por el que se reinsertan en él los resultados de su ejecución pasada”. La retroalimentación se considera “el secreto” de la naturaleza.

Hay que diferenciar entre proceso lineal y proceso con lazo de retorno: Hay varios tipos de retroalimentación. Las más destacadas son la retroalimentación negativa, la positiva y la compensada:
Teleología

Los sistemas deterministas están definidos a partir de las condiciones iniciales. Los sistemas teleológicos están condicionados a la consecución de un objetivo o a la obtención de un resultado final. Estas condiciones (iniciales o finales, respectivamente) influyen sobre los estados intermedios. Cuando está definido el objetivo, hay “equifinalidad”, es decir, diferentes estados iniciales conducen al mismo estado final. El estado final también se le denomina “atractor”.

Cuando un sistema está en equilibrio, su objetivo es mantenerlo, por lo que el sistema retorna a dicho estado tras una perturbación interna o externa.

En sistemas cibernéticos complejos (como organismos u organizaciones) los objetivos se presentan como una jerarquía. Hay un objetivo principal o esencial (como la supervivencia) y objetivos subsidiarios o secundarios, donde un objetivo de un nivel controla a otros del nivel inmediato inferior. Un ejemplo simple es el de una habitación regulada por un termostato con un sensor de infrarrojos que detecta la presencia o no de personas, siendo su objetivo el ahorrar energía.


La autorregulación

El estado de un sistema cibernético está definido mediante una serie de parámetros esenciales. Para conseguir su objetivo, un sistema cibernético se autorregula, es decir, utiliza un mecanismo interno de control (llamado también regulador, controlador, sistema regulador o sistema de control) para adaptarse a las condiciones y perturbaciones del entorno, cambiando sus parámetros esenciales. La autorregulación implica autonomía. La naturaleza es el sistema cibernético más extraordinario, pues siempre se autorregula.

Existen 3 mecanismos de control:
  1. Buffering (amortiguación).
    La amortiguación es la absorción pasiva de perturbaciones. Por ejemplo, en una habitación controlada por un termostato, una pared hace de amortiguador frente a los cambios de temperatura del exterior.

  2. Feedback (retroalimentación).
    En la retroalimentación hay un regulador que maneja las perturbaciones después de que afecte a los parámetros esenciales del sistema. Tiene la ventaja de que es más fácil de implementar, pero tiene la desventaja de que debe permitir una desviación antes de adoptar una acción.

  3. Feedforward (alimentación directa).
    En la alimentación directa hay un regulador que maneja las perturbaciones antes de que afecte a los parámetros esenciales del sistema. Por ejemplo, una habitación controlada por un termostato, con un sensor fuera de la habitación que avisa al termostato sobre variaciones de la temperatura exterior para que adopte una decisión antes de que afecte al interior de la habitación. Este sistema de control tiene la ventaja de la anticipación, pero la desventaja de que suele ser difícil de implementar en la práctica. No obstante, este sistema se hace necesario cuando las perturbaciones ocurren tan rápidamente que una reacción tipo feedback vendría demasiado tarde.
La presencia de control en un sistema cibernético significa que el sistema se puede concebir como dos unidades interactuantes: el controlador y lo controlado. En un sistema feedforward, el controlador recibe la señal de entrada del entorno y pasa una señal de control al sistema controlado. En un sistema feedback, el sistema controlado recibe la señal del entorno y pasa la misma señal al controlador, que devuelve una señal de control al sistema controlado.

Para Wiener, todo ser (biológico, artificial o mecánico) puede definirse por la naturaleza de los intercambios de información con el entorno. El propósito de la cibernética es comprender los comportamientos de información. La comunicación se concibe como intercambio de información con el entorno. La verdadera naturaleza de todo ser se encuentra en sus relaciones de comunicación. La comunicación cibernética es concebida como el comportamiento de intercambios de información.


Homeostasis

A Walter Cannon se debe el concepto de homeostasis (del griego “homo”, análogo y “estasis”, estabilidad). Este concepto data de 1939, anterior a la obra de Wiener. Es la característica de un sistema que se autorregula internamente para mantener su estabilidad (dentro de ciertos límites) frente a perturbaciones externas (del entorno) o internas. Este concepto es genérico y se aplica, no solo a sistemas cibernéticos, sino también a la biología (organismos vivos), psicología, sociología, etc.
Entropía. La visión termodinámica de la cibernética

El marco más universal que gobierna todos los sistemas físicos es la termodinámica. Y esta ciencia tiene dos leyes. La primera ley de la termodinámica es el principio de conservación de la energía en un sistema aislado. La segunda ley afirma que la entropía siempre aumenta. La concepción tradicional de la entropía es que es una medida del nivel de desorden de un sistema. A mayor desorden, mayor es la entropía. El concepto inverso de entropía es la neguentropía, que es una medida del orden. Por lo tanto, según la segunda ley, todo sistema tiende hacia una mayor desorganización, hacia un menor orden, la entropía aumenta y la neguentropía disminuye.

La entropía es un concepto introducido por Rudolf Clausius en los años 1850s y formalizado posteriormente a nivel matemático por Ludwig Boltzmann, relacionándolo con la probabilidad. La palabra “entropía” procede del griego y significa “transformación”.

Todos los sistemas, incluso los cibernéticos, están gobernados por la ley de entropía: todo sistema “persigue” siempre aumentar su entropía y además lo hace a la máxima velocidad posible.

Hay diferentes interpretaciones de la ley de entropía, según el sistema que se considere: El objetivo de un sistema cibernético es un estado de equilibrio, que es un estado de máxima probabilidad y mínima información. Cuando el sistema se desvía del estado de equilibrio, la desviación producida es información. Cuanto mejor y más eficiente el sistema de control (que hace recuperar el equilibrio del sistema), mayor es su variación de entropía por unidad de tiempo.

Se suele afirmar que en el mundo físico siempre aumenta la entropía (el desorden) y que en los sistemas biológicos aumenta la neguentropía (el orden). Pero no es cierto: en ambos casos se persigue el estado de equilibrio, el estado más probable, el de menor información. Por lo tanto, no hay que asociar entropía con desorden, sino con máxima probabilidad y mínima información. Podemos decir que la entropía es lo opuesto a información: cuanto mayor es la entropía, menor es la información.


Otras características de los sistemas cibernéticos
La cibernética de segundo orden

En 1972, la antropóloga Margaret Mead, presidenta de la American Society for Cybernetics (ASC), dedicó uno de sus discursos al tema “Cibernética de la Cibernética”. Heinz von Foerster [1974] sugirió cambiar este nombre por “Cibernética de segundo orden”. Hace referencia a la cibernética de los sistemas observantes, para diferenciarla de la cibernética de primer orden o cibernética de los sistemas observados (la cibernética de Wiener).

La cibernética tradicional (de primer orden) considera que la realidad es objetiva y existe independientemente del observador. La cibernética de segundo orden es de tipo reflexivo, incluye al observador, que se puede considerar un meta-sistema que observa, controla o interacciona con el sistema cibernético base. Un ejemplo de este tipo es un sistema social.

La cibernética de segundo orden está inspirada principalmente por los avances de la física moderna. A nivel cuántico, el observador influye o afecta a lo observado. Y a nivel relativista, el observador percibe según su sistema de referencia.

Los sistemas cibernéticos de primer orden no cambian sus objetivos mientras no se le den nuevas instrucciones al respecto, desde el exterior. Por ejemplo, un termostato (la orden externa es la fijación de una nueva temperatura). Los sistemas cibernéticos de segundo orden pueden modificar dinámicamente su objetivo, de forma autónoma.

También contribuyeron a cimentar este concepto Wittgenstein (filósofo y lógico), Warren McCulloch (neurofisiólogo), Gordon Pasq (psicólogo), así como Humberto Maturana y Francisco Varela (biólogos).

Para von Foerster [1974]:
La cibernética de tercer orden

A pesar de la afirmación anterior de von Foerster, algunos autores hablan de una cibernética de tercer orden, con dos características:
  1. Existe interrelación mutua entre el nivel base y el nivel meta, formando así una circularidad interactiva y una verdadera unidad superior. El observador y el sistema co-evolucionan. El observador debe cambiar su comportamiento para poder reconocer al sistema observado; si no cambia, dejará de reconocerlo.

  2. El sistema es consciente de su entorno y reconoce la forma de autorregularse para adaptarse a dicho entorno.
En la cibernética de segundo orden, hay causalidad desde el nivel meta hacia el nivel base. Con la cibernética de tercer orden se cierra el ciclo causal. Esto implica que el observador, no solo afecta o influye sobre lo observado, sino que lo observado hace cambiar al observador.

Un ejemplo de cibernética de tercer orden es una orquesta, en la cual cada músico no solo escucha su propio sonido sino el de todos sus compañeros, y adapta el propio en función de lo que escucha de sus compañeros.


La cibernética de los seres vivientes: autopoiesis

Los seres vivientes se pueden considerar sistemas cibernéticos cuyo objetivo es la estabilidad y la evolución, dentro de un entorno con el que interactúan.

Magoroh Maruyama [1963] (antes de la aparición del concepto de cibernética de segundo orden) afirmaba que los seres vivos se comportan como una ”segunda cibernética”. Todos los seres vivos dependen para su supervivencia de dos procesos: 1) Morfostasis, la retroalimentación negativa que tiende a estabilizarlo; 2) Morfogénsis, la retroalimentación positiva o amplificadora. Estos dos procesos se equilibran mutuamente.

El término “autopoiesis” es un neologismo creado en 1971 por Humberto Maturana y Francisco Varela (que describen en su obra “El árbol del conocimiento”). Proviene del griego: “auto” (sí mismo) y “poiesis” (creación o producción).

La autopiesis explica la organización de los sistemas biológicos, la capacidad distintiva que tienen los seres vivos de mantener y hacer evolucionar su propia organización interna, su estructura, de autoproducirse, de auto-regenerarse mediante una organización circular, auto-referencial o reentrante. Un sistema autopoiético se produce a sí mismo de forma continua usando recursos del entorno, de tal manera que el productor y el producto, el hacer y el ser, el sujeto y el objeto, son la misma cosa.

Los seres vivientes son seres autónomos autorreferentes. No todo ente autónomo es un ente vivo. La autorreferencia es un tipo de autonomía y es la que caracteriza a los seres vivientes. Los sistemas vivientes son simultáneamente sistemas autónomos y dependientes del entorno.

La teoría de la autopoiesis, aunque se apoya en la teoría cibernética, aporta dos importantes conceptos:
  1. Acoplamiento estructural.
    Se refiere a la capacidad de un ser viviente de evolucionar, de reestructurarse, de cambiar constantemente su estructura de forma flexible y congruente con las modificaciones del entorno. Su dinámica estructural, sus posibles cambios estructurales están predeterminados. Hay determinismo estructural: lo que le pasa al ser vivo depende de su estructura. Este acoplamiento estructural circular, de dialogo constante ser-entorno, ocurre a múltiples niveles. “Los sistemas autopoiéticos no tienen inputs ni outputs. Pueden ser perturbados por acontecimientos independientes y sufrir cambios estructurales internos que compensen esas perturbaciones” [Maturana & Varela, 1980].

  2. Clausura operacional.
    Los seres vivos son sistemas cerrados desde un punto de vista operativo o funcional. Para que la vida sea posible es necesario que el ser vivo se cierre ante el entorno, de tal manera que, ante la dinámica del entorno, se mantenga invariable su funcionalidad, su identidad, su autonomía, su totalidad. La clausura operacional se debe precisamente a su cualidad autorreferencial. El sistema nervioso del ser vivo tiene clausura operacional. “La circularidad de los sistemas vivos y sociales es efectivamente el hilo de Ariadna que permite comprender su capacidad para la autonomía” (Francisco Varela).
Es decir, los seres vivos son estructuralmente abiertos y funcionalmente cerrados. Hay 3 tipos u órdenes de sistemas autopoiéticos: 1) las células; 2) los organismos (agregados celulares), que tienen sistema nervioso; 3) los agregados de organismos (familias, sociedades, colonias, colmenas, etc.), cuya característica principal no son sus componentes (los organismos), sino las relaciones entre ellos. Según Maturana y Varela [1980], el establecimiento de de un sistema autopoiético no es un proceso gradual; un sistema es autopoiético o no lo es.

A nivel fundamental, el objetivo de un sistema autónomo o autopoiético es la supervivencia, es decir, el mantenimiento de su organización esencial. Y hay objetivos subsidiarios como: mantener su temperatura, comer, etc. que contribuyen a su supervivencia.

Los sistemas artificiales, como un termostato o un piloto automático, son aparentemente autónomos, pero realmente no lo son pues su objetivo primario está implementado por sus diseñadores. Se dice que estos sistemas son “alopoiéticos”. Su función es producir algo distinto de sí mismo.

La auto-reproducción se puede considerar como un caso especial de autopoiesis, donde los componentes auto-producidos no son utilizados para regenerar el sistema, sino para formar una copia del mismo.

El concepto de autopoiesis ha desbordado los límites de la biología para aplicarse en otros dominios como sociología, antropología, psicoterapia, etc., habiéndose convertido en una cosmovisión, en un importante concepto para la investigación de la realidad y para modelar muchos tipos de sistemas. Por ejemplo, el sociólogo Niklas Luhman [1996] lo ha aplicado al estudio de sociedades en contextos de contingencia y riesgo. La pretensión de Luhman es crear una superteoría aplicable a todo fenómeno social. Su obra actual se considera uno de los estudios teóricos más importantes elaborados en el campo de la sociología. Puntos destacados son: Sin embargo, Varela rechazó que los conceptos autopoiéticos se pudieran aplicar a los sistemas sociales, restringiéndolo exclusivamente a los sistemas biológicos.


La mente, un sistema cibernético

Según Gregory Bateson [1993, 2002], la mente es un sistema cibernético: un agregado de de partes interactivas que exhiben una estructura de realimentación. Según este autor, donde hay realimentación hay mente. La complejidad de sistemas con realimentación (y, por lo tanto, con mente) varía desde un simple termostato hasta la mente humana y más allá: la mente universal. La mente individual es solo un subsistema de la mente universal. También hay una mente en el sistema social y en la ecología planetaria.

Bateson habla de una “ecología de la mente”, donde existe un “patrón que conecta” mente y naturaleza, lo interior y lo exterior. Este patrón que conecta es un meta-patrón, un patrón de patrones que elimina la dicotomía entre mente y naturaleza.


La Valoración de la Cibernética

La cibernética, ¿ciencia universal?

Muchos autores consideran que la cibernética es una ciencia universal o una ciencia interdisciplinaria o transdisciplinaria, pues los sistemas cibernéticos se encuentran en todas las áreas de conocimiento. El propio Wiener afirmó en su obra seminal de 1948 que “las más fructíferas áreas para el desarrollo de las ciencias eran aquellas que habían sido olvidadas como tierra de nadie entre varios campos establecidos”. Lo que sí puede afirmarse de la cibernética es lo siguiente:
Filosofía de la cibernética

Aparentemente, la cibernética, al adoptar un enfoque científico y mecanicista en todos los dominios (incluidos los sociales), se podría interpretar como un intento de eliminar la filosofía, como ocurrió con el positivismo a partir de Comte, que fundamentaba el conocimiento en el empirismo y el verificacionismo científico.

Heidegger en “El final de la filosofía y la tarea del pensar” (1964) ataca a la cibernética como la consumación del pensamiento técnico y superficial de la modernidad, con el consiguiente olvido del ser. Reclama un tipo más profundo de pensamiento y la búsqueda del ser que se oculta tras todos los entes. E ironiza: “Mientras la filosofía clásica se desvanece, la cibernética se convierte en una filosofía para el siglo veinte”.

Wiener, que estudió filosofía, insistía en la necesidad de una filosofía cibernética. Y, en efecto, la Cibernética plantea una serie de problemas filosóficos, entre ellos los siguientes:
  1. Lo principios.
    Los principios cibernéticos son muy generales o universales. La filosofía se interesa por lo universal, por los principios fundamentales de la realidad.

  2. Epistemología.
    La cibernética aporta una epistemología, una teoría del conocimiento, fundamentada en la sustitución de lo “real” por lo abstracto. La filosofía pretende aprehender la verdadera esencia de la realidad y así lograr la unificación del conocimiento.

  3. La relación hombre-máquina.
    La cibernética trata de sistemas autónomos, que toman sus propias decisiones, incluso que aparentemente “piensan”. La filosofía es especulativa, por lo que nos preguntamos: ¿pueden pensar las máquinas?, ¿es el hombre una máquina o una de las posibles implementaciones de un sistema cibernético?, ¿puede ayudarnos la cibernética a entendernos mejor nosotros mismos?, ¿llegarán las máquinas a dominar el hombre?, etc.

Cibernética y conciencia

La cibernética es una notable aproximación al tema de la conciencia, al unir toda una serie de opuestos: Es una paradoja, no concebible con el pensamiento tradicional de tipo dicotómico (verdadero/falso, sí/no, etc.), sino con un modelo de pensamiento en el que se compatibiliza el pensamiento analítico con el sintético, lo lineal con lo circular, etc. En definitiva, con la unidad de los opuestos. Esta dialéctica de los contrarios está en la base de la conciencia y la vida. La circularidad, pese a ser un concepto esencial, no más que un caso particular del concepto general de “unión de opuestos”.

Gregory Bateson [1993] consideraba a la cibernética una disciplina clave, muy importante: “Pienso que la cibernética es el mayor a la fruta del árbol del conocimiento que la humanidad ha dado en los últimos 2000 años”. Pero ahora podemos comprender mejor su importancia por su estrecha relación con el tema de la conciencia.

El símbolo que mejor representa la unión de los opuestos es el Ouroboros, la mítica serpiente que engulle su propia cola, formando así un círculo. El circulo, no teniendo ni principio ni fin, es el símbolo de Dios, del alma, de la conciencia, de lo absoluto, de la eternidad, de la perfección, de la totalidad indivisible, de la unidad, de lo inmutable, de la esencia indestructible y de la permanencia de todas las cosas. Y la serpiente simboliza:
Ouroboros

En algunas representaciones la serpiente se representa con una mitad clara y otra oscura, haciendo a la vez referencia a la dicotomía de los procesos cíclicos (día-noche, etc.).


La problemática de la cibernética

La cibernética arrastra una cierta problemática, por lo que ha sido criticada, e incluso cuestionada, por diferentes razones:
Cibernética vs. Inteligencia Artificial

La cibernética y la Inteligencia Artificial se han disputado la construcción de sistemas inteligentes. El movimiento cibernético empezó primero (1948, con Wiener), siendo su época dorada los años 1950s. La Inteligencia Artificial (IA) nació oficialmente en 1956 en la famosa Conferencia del Dartmouth College (Hanover, New Hampshire) y dominó principalmente entre 1960 y 1985. Sin embargo, la frontera entre cibernética e IA es difusa. Por ejemplo, cuando un sistema reacciona adecuadamente con su entorno, emerge la ilusión de inteligencia.

Además, por la problemática descrita anteriormente, muchos autores e investigadores han propuesto que sea la IA la ciencia que se dedique a la teoría y al desarrollo de sistemas que tengan comportamientos inteligentes. De hecho, los congresos de cibernética se han convertido en la práctica en congresos de IA. Sin embargo, alrededor del año 2000, se produjo un movimiento de retorno a la cibernética, principalmente por 3 razones:
  1. Por la necesidad de disponer de un marco conceptual de tipo general, integrador o unificador para toda una serie de disciplinas más o menos dispersas.

  2. Por los repetidos fracasos de la IA, que ha decepcionado las grandes expectativas puestas en ella.

  3. Porque un sistema de IA profunda requiere interacción con su entorno, por lo que necesitamos una “IA cibernética”.
Sin embargo, actualmente los objetivos de la IA y la cibernética están cada vez más próximos, hasta tal punto que tienden a confundirse. A veces, incluso las siglas AI (Artificial Intelligence) se interpretan como Agent Intelligence o Agent Intelligence.


Cibernética e informática

Actualmente, la informática se ha convertido en el recurso técnico más útil para investigar y desarrollar modelos cibernéticos, tanto reales como simulados. De hecho, la evolución de la cibernética (como la Inteligencia Artificial) se debe, en gran parte, a los ordenadores y a sus programas de simulación. El propio ordenador es un sistema cibernético, y por lo tanto es objeto de investigación por parte de la cibernética. Es paradójico que para investigar los sistemas cibernéticos se utilice un sistema cibernético como es el ordenador. Pero el ordenador es realmente una meta-máquina, una máquina capaz de ser configurada como cualquier máquina particular.

Los programas de simulación (como Simula, Simscript, Slen, Nedis, etc.) utilizan un lenguaje diferente cada uno. Y un sistema informático también requiere un lenguaje. Y aquí tenemos una brecha (gap) semántica, una brecha semántica entre ambos lenguajes. De todas formas, existen traductores que convierten la descripción de un sistema cibernético a código de ordenador.


MENTAL, un Lenguaje para la Cibernética

La cibernética ha tenido un gran impacto precisamente por su estrecha relación con el tema de la conciencia, por la unión de opuestos. Pero carece de un lenguaje formal capaz de expresar sus conceptos fundamentales.

MENTAL es un lenguaje universal fundamentado en la conciencia, en la unión de opuestos que puede aplicarse a la cibernética, pues permite expresar e implementar fácilmente la retroalimentación, la comunicación con el entorno y la autorregulación, incluyendo la modificación de su propia estructura. MENTAL está en un nivel de abstracción superior a la cibernética, por lo que ésta no es más que una aplicación de MENTAL. Además MENTAL, por su universalidad puede aplicarse también a la Informática y a la Inteligencia Artificial.
Adenda

La ley de Ashby de la variedad requerida

Esta ley es quizás el principio cibernético más conocido, pues es muy simple e intuitivo: “Cuanto mayor es la variedad de acciones disponibles en un sistema de control, mayor es la variedad de perturbaciones que es capaz de compensar” o “Cuanto mayor es la variedad interna de un sistema de control, mayor es la adaptación a la variedad externa” o “Solo un incremento en la variedad interna puede absorber a la variedad externa”.

Es decir, un sistema de control puede controlar algo si tiene la variedad interna suficiente para representarla. Por ejemplo, si un sistema de control tiene que elegir entre dos alternativas, debe ser capaz de representar esas dos posibilidades al menos para poder realizar una distinción o selección.


Cibernética Organizacional

Es la aplicación de los principios de la cibernética a las organizaciones. Su principal promotor es Stafford Beer [1981, 1995]. Estudia principalmente el papel del diseño de los sistemas de información y los canales de comunicación en la consecución de los objetivos de las organizaciones. Su Modelo de Sistemas Viables (MSV) describe las condiciones necesarias y suficientes para que una organización sea viable y tenga un comportamiento flexible frente a entornos cambiantes y complejos, a partir de estructura, actividades, interrelaciones y flujos de información. Y permite detectar “patologías” desde el punto de vista cibernético (estructurales, funcionales y los relacionados con los sistemas de información y comunicación). Un sistema viable debe tener 5 claves si quiere funcionar con eficacia en su entorno: práctica, coordinación, control, inteligencia y política.


Cibernética social y terapia sistémica

La cibernética social es un ejemplo de cibernética de segundo orden. Los cambios globales sociales provocan cambios en las conciencias individuales, que a su vez provocan cambios sociales.

Con la cibernética social surgen las terapias sistémicas, basadas en la retroalimentación y la comunicación humana en un entorno común. Se considera al paciente en su contexto social primario, la familia, que es un sistema de comunicación y de interrelaciones.

En general, los sistemas sociales pueden tener perturbaciones pero tienden al equilibrio, pues hay un “orden social” basado en reglas, normas y costumbres asociadas a su cultura.

Se abandona así el esquema tradicional de análisis de procesos internos, de tipo psíquico, y se sustituye por el análisis de los procesos de interacción comunicacional: el llamado “análisis sistémico”.

Gregory Bateson fue uno de los primeros en ver analogías entre un grupo familiar y un sistema cibernético. Provocó un giro epistemológico, una nueva forma de ver la realidad de una manera más global y sistémica, abriendo el campo hacia lo trans-personal y el trans-psiquismo.


Neocibernética

Aunque el término “Neocibernética” se ha aplicado a la nueva cibernética surgida con el concepto de autopoiesis de Maturana y Varela, Heikki Hyötyniemi [2006] lo utiliza para referirse a un nuevo marco teórico para la modelación y simulación de sistemas complejos, como los sistemas caóticos, los ecosistemas naturales, los sistemas económicos y los sistemas cognitivos (que son también sistemas cibernéticos). Este tipo de sistemas tienen 3 características esenciales: 1) no son centralizados; 2) no son lineales; 3) producen fenómenos “emergentes”, es decir, aparecen funcionalidades globales a partir de procesos simples de bajo nivel.

Se suele afirmar que los sistemas complejos desafían a todo intento de modelado, pues actúan de formas inesperadas, no previstas por los modelos. Sin embargo, la Neocibernética es una nueva forma de ver y modelar los sistemas cibernéticos complejos:
Los fractales, sistemas autorreferentes

Los fractales poseen una propiedad cibernética: son sistemas autorreferentes, pues hacen referencia a sí mismos al contenerse a sí mismos. Los fractales también tienen relación con la conciencia al unir los opuestos de “parte” y “todo”. El fractal de Mandelbrot tiene la propiedad de que sus puntos están en el límite entre el orden y el caos. Son los puntos que convergen en la transformación recursiva (en el plano complejo) La proporción áurea (Φ) es una expresión fractal porque se contiene a sí misma, es autorreferente. En MENTAL se expresa como Su computación se dirige hacia un punto de equilibrio que nunca se alcanza porque es un número irracional. Pero desde el punto de vista descriptivo está perfectamente definida.

Otro número autorreferente es la raíz cuadrada de 2:
Bibliografía